围绕深度学习算法的长期挑战是解开和了解它们如何做出决定。可解释的人工智能(XAI)提供了方法,以解释算法的内部功能及其决策背后的原因,这些方式以人类用户的解释和可理解的方式提供了解释。 。到目前为止,已经开发了许多XAI方法,并且对这些策略进行比较分析似乎是为了辨别它们与临床预测模型的相关性。为此,我们首先实施了两个使用结构化表格和时间序列生理数据的创伤性脑损伤(TBI)(TBI)的预测模型。使用六种不同的解释技术来描述本地和全球水平的预测模型。然后,我们对每种策略的优点和缺点进行了批判性分析,突出了对使用这些方法感兴趣的研究人员的影响。根据几种XAI特征,例如可理解性,忠诚度和稳定性,将实施的方法相互比较。我们的发现表明,Shap是最稳定的,其保真度最高,但缺乏可理解性。另一方面,锚是最可理解的方法,但仅适用于表格数据而不是时间序列数据。
translated by 谷歌翻译